Kanadyjski mąż Suzanne Somers stworzył „bliźniaczkę AI” zmarłej aktorki. Czy to źle?

Plan pewnego Kanadyjczyka, mający na celu przywrócenie życia jego zmarłej sławnej żonie za pomocą sztucznej inteligencji, wywołał szereg pytań etycznych dotyczących przedłużania istnienia człowieka w cyfrowym wszechświecie.
Alan Hamel, kanadyjski artysta i wieloletnia osobowość telewizyjna, niedawno powiedział magazynowi People stworzył „bliźniaczą sztuczną inteligencję” gwiazdy Hollywood Suzanne Somers, swojej żony i partnerki, z którą przeżył 55 lat, która zmarła w 2023 r. na raka piersi.
89-letnia Hamel powiedziała magazynowi People, że bot AI został wyszkolony na książkach i wywiadach Somers, „dzięki czemu jest naprawdę gotowa, by odpowiedzieć na dowolne pytanie”.
Powiedział, że bot był pomysłem Somers i rozmawiali o nim latami, aż do jej śmierci. Dodał, że jej sztuczna inteligencja pojawi się na jej stronie internetowej w niedalekiej przyszłości, gdzie będzie mogła przez całą dobę komunikować się z fanami, którzy za nią tęsknią.
„Kiedy porównasz ukończoną wersję z prawdziwą Suzanne, nie zauważysz różnicy” – powiedział magazynowi People.
CBC News skontaktowało się z Hamelem, ale do czasu publikacji nie otrzymało odpowiedzi.
„20 milionów warstw złożoności”Brazylijska etyczka zajmująca się sztuczną inteligencją, Catharina Doria, uważa, że przywrócenie komuś życia w formie sztucznej inteligencji wymaga dużej ostrożności.
Podczas gdy ludzie tworzyli filmy z udziałem zmarłych gwiazd bez ich zgody w celach rozrywkowych (córka zmarłego komika Robina Williamsa stwierdziła, że była „obrzydzona” widząc w zeszłym miesiącu filmy z jego podobizną ), Doria twierdzi, że ten scenariusz jest bardziej skomplikowany.

„Myślę, że naprawdę trudno jest jednoznacznie odpowiedzieć na pytanie, czy to jest słuszne, czy nie, czy to dobre, czy złe. Myślę, że jest w tym 20 milionów warstw złożoności” – powiedziała w wywiadzie dla CBC News.
Doria mówi, że martwi się, iż wiele osób ma problem z rozróżnieniem, co jest prawdą w sieci, a to może powodować nieprzewidziane problemy, gdy ludzie wchodzą w interakcję z botami, takimi jak sztuczna inteligencja Somers.
Przytacza przykład pastora amerykańskiego megakościoła, który niedawno wykorzystał sztuczną inteligencję do nagrania nieżyjącego już konserwatywnego publicysty Charliego Kirka, by zmusić go do powiedzenia rzeczy, których nigdy nie powiedział w prawdziwym życiu, co wprawiło widzów w konsternację. Pomimo zastrzeżenia, że nagranie zostało wygenerowane przez sztuczną inteligencję, wielu komentatorów online nie było pewnych, czy to prawdziwy film z Kirkiem, czy też nagranie audio z jego wypowiedzi z czasów, gdy jeszcze żył.
„Musimy się naprawdę zastanowić — czy ludzie mają wystarczającą wiedzę i są wystarczająco wykształceni w dziedzinie sztucznej inteligencji, w tym sztucznej inteligencji generatywnej, żeby zrozumieć, że ta osoba, ta rzecz, ktokolwiek mówi po drugiej stronie, udaje człowieka?” — powiedziała.
„Myślę, że musimy odbyć dyskusję na temat znajomości sztucznej inteligencji”.
Doria uważa, że możliwość tworzenia przez sztuczną inteligencję wersji zmarłych osób przyczynia się do „pandemii samotności” i może sprawić, że ludzie popadną w jeszcze głębszą izolację.
Według niej działa to podobnie do aplikacji takich jak Character.AI, która pozwala ludziom rozmawiać z botami odgrywającymi role celebrytów i fikcyjnych postaci, a także z botami towarzyszącymi, z którymi niektórzy ludzie nawiązują romantyczne relacje .
„Ja, jako etyk zajmujący się sztuczną inteligencją, a także inni eksperci, obawiam się, że spowoduje to odsunięcie ludzi od społeczeństwa, świata i prawdziwej ludzkiej miłości” – powiedziała.

Firmy takie jak Eternos, StoryFile i HereAfter AI już teraz czerpią zyski z tworzenia realistycznych awatarów AI dla osób, które straciły bliskich.
Mając dostęp do danych logowania zmarłych osób w mediach społecznościowych, firmy te mogą tworzyć „deadboty”, znane również jako „griefboty” lub „duchy AI”, które emulują ich osobowość.
Naukowcy z Uniwersytetu Cambridge wyrazili obawy dotyczące robotów typu deadbot, twierdząc, że w przyszłości firmy mogą je wykorzystywać do wyświetlania użytkownikom reklam lub wysyłania spamu do swoich bliskich za pomocą niechcianych powiadomień.
Jason Millar, przewodniczący Katedry Etyki Inżynierii Robotyki i AI na Uniwersytecie w Ottawie, uważa, że nadszedł czas, aby ludzie zaczęli zastanawiać się nad tym, jak będą zarządzać swoją obecnością cyfrową po śmierci.
„To po prostu dodaje kolejny poziom złożoności do tej rozmowy, biorąc pod uwagę możliwość ożywienia zmarłych w formie ChatGPT” – powiedział CBC News.
Millar mówi, że rozumie atrakcyjność cyfrowego klonowania bliskiej osoby, ale obawia się, że ludzie nie będą mogli uczestniczyć w procesie żałoby, co ostatecznie uniemożliwi im uzdrowienie i przyszłe szczęście.
Twierdzi, że rodzi to również szereg pytań etycznych, zwłaszcza w przypadku takim jak Somers, gdzie jej awatar AI potencjalnie będzie rozmawiał z dużą liczbą osób.
Na przykład, pyta Millar, co jeśli twórca w końcu zechce to wyłączyć? I kto ma do tego prawo, skoro inni ludzie się do tego przywiązali?

Mówi, że obawia się również, iż dzieje się to w obszarze, który nie jest w dużym stopniu uregulowany.
„Myślę, że wiele osób może czuć się niekomfortowo, myśląc o tego typu problemach, ale myślę, że nie możemy ich już dłużej ignorować” – powiedział.
„O ile mi wiadomo, nie ma obecnie żadnych przepisów, które zabraniałyby komukolwiek tego robić”.
Technologia AI staje się łatwiejsza w użyciuJames Hutson, szef badań i programowania sztucznej inteligencji zorientowanej na człowieka na Lindenwood University w stanie Missouri, twierdzi, że Somers AI Twin zaciera granicę między martwym botem a botem wykorzystywanym w celach komercyjnych lub rozrywkowych.
Jednak spodziewa się, że trend wykorzystywania sztucznej inteligencji do reanimacji zmarłych utrzyma się, ponieważ technologia ta będzie coraz łatwiejsza w obsłudze.
Hutson uważa, że jest to naturalny przejaw ludzkiej skłonności do podtrzymywania relacji z bliskimi, których stracił, zauważając, że już w średniowieczu ludzie robili zmarłym maski woskowe.
„Możliwość podtrzymywania kontaktu z naszymi bliskimi po śmierci jest fundamentalną cechą ludzkiej historii i kultury” – powiedział.

Hutson bada, jak ludzie postrzegają awatary oparte na sztucznej inteligencji i odkrył, że zdecydowana większość nie uznaje sztucznej inteligencji za „ucieleśnioną” ani przesłania martwego bota do fizycznej, robotycznej formy.
Ale jego zdaniem sytuacja może się zmienić, gdy technologie te staną się powszechne.
„To kolejny krok, prawda? Czy chcesz, żeby twoja cyfrowa świadomość, że tak powiem, żyła dalej w świecie materialnym w jakiejś formie robotyki?” – zapytał.
cbc.ca




